968 resultados para Medição de Trabalho


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este relatório apresenta o estudo de duas linhas de montagem de câmaras de vigilância da empresa Bosch Security Systems, S.A. de Ovar. Numa primeira fase procedeu-se à elaboração das listas de tarefas e respectivas precedências, seguindo-se a medição de trabalho, com o intuito de se actualizarem os tempos padrão existentes. Procedeu-se à comparação dos tempos obtidos com os que se encontravam em vigor de modo a perceber as diferenças e motivos das mesmas. Numa segunda fase, realizaram-se balanceamentos para as duas linhas tendo como cenários a manutenção das duas linhas e a possibilidade da sua junção numa linha única. Analisaram-se todos os resultados e efectuou-se um levantamento do investimento necessário associado a cada um dos cenários. Realizou-se deste modo uma análise de viabilidade com vista ao apoio à decisão. Por fim, realizou-se o workshop Lean Line Design que teve como resultado a configuração física da linha final. Este projecto permitiu chegar a resultados aliciantes, com ganhos a vários níveis. Constituiu mais uma acção de melhoria da empresa, levando-a a rectificar lacunas existentes e ao cumprimento de procedimentos ergonómicos que já se encontravam definidos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ao longo dos anos, a economia mundial tem sofrido profundas mudanças, assistindo-se a uma crescente exigência por parte dos mercados, quer na diversidade dos produtos, quer na qualidade dos serviços. No Setor Automóvel, a globalização vem obrigando os construtores a adotar novos paradigmas ao nível do conceito de produção, de modo a corresponder às novas exigências de redução de custos e à obtenção de melhores níveis de produtividade e qualidade. É neste contexto, que a Indústria dos Componentes para Automóveis, ao constituir-se como um setor caraterizado por elevados graus de exigência e de competitividade, vem impondo às suas empresas o recurso a crescentes exigências nos processos tecnológicos, de forma a manter uma dinâmica de contínuo desenvolvimento e inovação de produtos, tecnologias e processos, bem como, a perseguir conceitos de qualidade total e de excelência nas suas operações. Este documento resulta, antes de tudo, de um extenso trabalho de campo, onde se procurou aplicar uma metodologia assente na T.O.C. - Theory of Constraints, com integração de conceitos de Lean Manufacturing, contribuindo assim, para a otimização de linhas de produção da empresa do setor dos componentes para automóveis, tomada como referência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente pesquisa caracteriza-se como um estudo de caso com abordagem qualitativa de análise, tem caráter etnográfico e propôs dar continuidade à pesquisa de Guimarães (2008). Analisamos, na prática de sala de aula de um sujeito selecionado entre os participantes do estudo anterior, como ocorre o trabalho com leitura em E/LE em materiais retirados da Internet. Para isso, partimos dos seguintes questionamentos: (1) o que, para o professor, em sua prática, representa desenvolver atividades de leitura; (2) que tratamento recebem os textos oriundos do meio virtual e (3) como a prática, objetivos e base teórica deste professor se relacionam com a sua auto-imagem que aparece no questionário (Guimarães, 2008).Selecionamos o sujeito em função de sua alta adesão ao uso de recursos informáticos e sua proposta de ensino-aprendizagem de espanhol como língua estrangeira com base no desenvolvimento da compreensão leitora. Utilizamos como instrumentos de coleta de dados: o questionário da pesquisa de Guimarães (2008), os materiais utilizados pelo professor nas aulas observadas, as fontes originais virtuais dos textos presentes nesses materiais, o diário de campo do pesquisador, as gravações em áudio das aulas analisadas e a entrevista realizada com o informante. Nossa base teórica está fundamentada nos modelos de leitura, em especial o sócio-interacional, na caracterização da leitura em meio digital e no processo de transposição didática. Verificamos que o sujeito, baseado na teoria sócio-interacional, tem como foco de seu trabalho o desenvolvimento da habilidade leitora de seus alunos. Analisamos, também, as mudanças promovidas nos textos usados em sala de aula, em comparação às suas versões originais digitais. Discutimos que essas alterações podem trazer as consequências para o desenvolvimento da competência leitora e compreensão do texto por parte dos leitores-alunos, tanto no que se refere, especificamente, ao seu letramento digital como no processo leitor como um todo. Sobre a auto-imagem que o professor constrói através do questionário de Guimarães (2008), concluímos que, como apontado, o informante desenvolve um trabalho direcionado ao ensino de leitura em E/LE, assim como tem a internet como uma das principais fontes de materiais para suas aulas. Porém, a estrutura da instituição na qual atua o limita e altera as formas de trabalhar com textos e ferramentas virtuais, proporcionando uma mudança no perfil definido pelo questionário

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A velocidade do som é uma propriedade que vem sendo cada vez mais utilizada em diferentes áreas tecnológicas. Além disso, a velocidade do som é uma propriedade termodinâmica que está associada a outras propriedades do meio como a compressibilidade isentrópica e isotérmica, entre outras. Neste contexto, muitos estudos foram realizados a fim de obter modelos precisos que possam representar fielmente a velocidade do som, sendo observados desvios absolutos médios entre 0,13 e 24,8%. Neste trabalho, um banco de dados de velocidade do som e massa específica à pressão atmosférica de n-alcanos, alcanos ramificados, n-alcenos, aromáticos, alcoóis, éteres e ésteres, foram compilados da literatura aberta. Utilizando estes dados e baseando-se no modelo de Wada por contribuição de grupo recentemente proposto, foi desenvolvido um novo modelo por contribuição atômica para predizer a velocidade do som de todas as famílias dos compostos investigados neste trabalho. É mostrado que o modelo proposto é capaz de prever a velocidade do som para os compostos destas famílias com desvios próximos da incerteza experimental calculada a partir de diferentes dados da literatura. Este trabalho também discute o efeito da ramificação das cadeias na constante Wada, ressaltando a importância de novas medições para este tipo de compostos. Além disso, observou-se que a literatura necessita de mais dados experimentais de velocidade do som, à pressão atmosférica e diferentes temperaturas para substâncias puras presentes em biodiesel e bio-óleo de pirólise rápida. Neste contexto, o presente trabalho fornece novos dados experimentais de velocidade do som e massa específica de cinco ésteres metílicos de ácidos graxos, também conhecidos como FAMEs, (caprilato de metila, caprato de metila, palmitato de metila, estearato de metila e linoleato de metila), e sete componentes puros presentes em bio-óleo de pirólise à pressão atmosférica, de vários fenóis (fenol, o-, m- e p-cresol), dois éteres fenólicos (2-metoxifenol e eugenol) e um éster fenólico (salicilato de metila), a temperaturas de (288,15-343,15) K. O modelo preditivo de Wada atômico foi utilizado para calcular a velocidade do som dos FAMEs estudados neste trabalho, e os desvios foram comparados com o modelo de Wada por contribuição de grupo. O modelo atômico de Wada foi utilizado para prever a velocidade do som dos componentes puros presentes no bio-óleo de pirólise rápida experimentalmente estudados nesta dissertação. Além disso, os dados de massa específica e velocidade de som foram correlacionados com o modelo de Prigogine-Flory-Patterson (PFP). As propriedades foram bem representadas pelo modelo PFP, no entanto, para a velocidade do som o modelo apresenta desvios sistemáticos na dependência com a temperatura. O desempenho do modelo preditivo de Wada atômico foi considerado satisfatório, devido os desvios observados serem compatíveis ou até menores do que os desvios típicos obtidos na literatura com outros modelos correlativos para o cálculo da velocidade do som de outras substâncias

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo dessa pesquisa é apresentar uma ferramenta alternativa ao valor econômico adicionado na mensuração da performance empresarial correlacionada com o valor de mercado. Na revisão da literatura apresenta-se o conceito de estrutura e custo de capital, utilizando a metodologia do CAPM e do APT. São igualmente apresentadas as principais medidas financeiras de desempenho tais como: retorno operacional sobre o investimento, retorno sobre o patrimônio liquido, retorno sobre os ativos, além de outras formas para cálculo do retorno. Na sequência introduzimos o conceito de lucro residual e o valor econômico adicionado, discutindo suas vantagens, desvantagens, dificuldades e limitações dessa ferramenta. Através do EVA podemos calcular o valor de mercado adicionado, fundamental para o cálculo do valor patrimonial ajustado. Também é apresentado nessa obra a interpretação do EVA pela ótica do modelo Fleuriet de planejamento financeiro. Após essa explanação teórica é apresentado o Financial Value Added proposto por esse trabalho, como alternativa ao Valor Econômico Adicionado na mensuração do desempenho empresarial. Essa ferramenta exclui da base de cálculo as receitas e despesas econômicas, uma vez que as mesmas em alguns casos distorcem o resultado como é constatado no teste com as empresas: Sadia S.A. e Perdigão S.A. onde os resultados foram 54% na Sadia e 13% na Perdigão superiores ao EVA. Em nenhum momento argumenta-se a substituição do EVA, apenas a introdução do FVA como alternativa nos casos em que o EVA não funcione adequadamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho apresenta a técnica de fluorescência de raios X por dispersão de energia (EDXRF) para calcular a espessura de filmes metálicos finos por ser de custo relativamente baixo, não destrutiva e que permite também uma análise qualitativa e até quantitativa dos elementos do revestimento. As espessuras do Níquel, Zinco e Cromo sobre aço, foram calculadas utilizando cinco procedimentos diferentes e todas as relações matemáticas obtidas foram baseadas na lei de atenuação de Beer-Lambert, que relaciona as intensidades Kα e/ou Kβ e as relações específicas do material (coeficiente de atenuação, μm). Os resultados experimentais para as espessuras do Zinco e Níquel, utilizando somente a intensidade Kα, apresentaram valores próximos dos valores estimados. Quando foi considerada a razão Kα/Kβ, os resultados experimentais divergiram bastante do estimado. Para calcular a espessura do Cromo foi necessário utilizar um método em que as camadas são calculadas separadamente, pois o revestimento de Cromo é composto por múltiplas camadas (Cromo, Cobre e Níquel), Os resultados para a espessura do Cromo foram satisfatórios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existem várias patologias associadas à luxação da rótula, causadas pelo seu movimento anormal. Geralmente congénita, esta condição provoca dor, dano à cartilagem, artrite e por vezes necessita de cirurgia. As medições do movimento são feitas com recurso a equipamentos de alto custo, ou através do método clínico, que apenas os médicos mais experientes usam com fiabilidade, sendo sempre subjectivo. Actualmente não existe qualquer sistema comercial para a medição não invasiva de baixo custo dos movimentos da rótula. De modo a responder a esta necessidade, este trabalho tem como objectivo o desenvolvimento de um sistema de baixo custo para medição digital do deslocamento da rótula em diferentes ângulos entre o fémur e a tíbia. Como conceito de partida foi idealizado utilizar um sensor de movimento em seis dimensões, fixo de uma forma não invasiva sobre a rótula. O dispositivo tem como requisitos iniciais ser reutilizável e de baixo custo. Criou-se um Design Brief para identificar o contexto e necessidades específicas para este trabalho e traçar objectivos utilizando metodologias de desenvolvimento de produto. Foram desenvolvidos conceitos para um dispositivo de suporte do sensor de movimento 6D, dos quais alguns foram seleccionados para prototipagem e teste, explorando vários processos de manufactura na perseguição dos objectivos propostos. Foram estabelecidas métricas para monitorização contínua da evolução dos conceitos e selecção do conceito final, que foi sujeito a uma série de testes de validação. A validação do sensor e do dispositivo foi feita com testes de usabilidade, com a aferição por um robot programável e com medições in vivo em 20 joelhos sem patologia. Apesar da alta precisão do sensor, não foi possível obter medições que possam reproduzir com fiabilidade o movimento da rótula nos sujeitos observados. A pele foi o factor que mais influenciou as medições, provocando o deslocamento do dispositivo em relação à rótula e desta forma alterou significativamente os resultados. Assim, recomenda-se a continuação da investigação com o intuito de melhor quantificar o movimento da rótula e fornecer informação para melhorar a fiabilidade da utilização de dispositivos de medição em seis dimensões.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O calibre da artéria aorta torácica é avaliado em situações de suspeita de patologia ou em pacientes com pre-disposição para desenvolverem doenças vasculares. A medição das suas dimensões, em duas direcções diametralmente opostas e, assim, fulcral na avaliação desta estrutura. Para tal, o exame de primeira linha definido é a Angiografia por Tomografia Computorizada (Angio-TC), injectando-se um produto de contraste na veia radial que irá opacificar os vasos, permitindo a sua distinção das estruturas adjacentes. O presente trabalho, inserido na disciplina de Dissertação/ Projecto/ Estágio Profissional do Mestrado em Engenharia de Computação e Instrumentação Médica e com a cooperação da empresa Efficientia, foi sugerido pela equipa de Angio-TC do Centro Hospitalar de Vila Nova de Gaia (CHVNG) e tem por objectivo o desenvolvimento de uma aplicação para a medição e registo automático do diâmetro da aorta torácica em nove pontos anatómicos pre-definidos em imagens de Tomografia Computorizada (TC). A aplicação foi desenvolvida no ambiente integrado de processamento e análise de imagem, Fiji, sendo a metodologia composta pelas etapas de segmentação, desenho da linha central, determinação dos planos de cortes, segmentação e medição da aorta nos planos de corte. Os resultados obtidos pela metodologia proposta são concordantes com os obtidos por especialistas para o conjunto de teste utilizado neste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ensaio de dureza, e mais concretamente o ensaio de micro dureza Vickers, é no universo dos ensaios mecânicos um dos mais utilizados quer seja na indústria, no ensino ou na investigação e desenvolvimento de produto no âmbito das ciências dos materiais. Na grande maioria dos casos, a utilização deste ensaio tem como principal aplicação a caracterização ou controlo da qualidade de fabrico de materiais metálicos. Sendo um ensaio de relativa simplicidade de execução, rapidez e com resultados comparáveis e relacionáveis a outras grandezas físicas das propriedades dos materiais. Contudo, e tratando-se de um método de ensaio cuja intervenção humana é importante, na medição da indentação gerada por penetração mecânica através de um sistema ótico, não deixa de exibir algumas debilidades que daí advêm, como sendo o treino dos técnicos e respetivas acuidades visuais, fenómenos de fadiga visual que afetam os resultados ao longo de um turno de trabalho; ora estes fenómenos afetam a repetibilidade e reprodutibilidade dos resultados obtidos no ensaio. O CINFU possui um micro durómetro Vickers, cuja realização dos ensaios depende de um técnico treinado para a execução do mesmo, apresentando todas as debilidades já mencionadas e que o tornou elegível para o estudo e aplicação de uma solução alternativa. Assim, esta dissertação apresenta o desenvolvimento de uma solução alternativa ao método ótico convencional na medição de micro dureza Vickers. Utilizando programação em LabVIEW da National Instruments, juntamente com as ferramentas de visão computacional (NI Vision), o programa começa por solicitar ao técnico a seleção da câmara para aquisição da imagem digital acoplada ao micro durómetro, seleção do método de ensaio (Força de ensaio); posteriormente o programa efetua o tratamento da imagem (aplicação de filtros para eliminação do ruído de fundo da imagem original), segue-se, por indicação do operador, a zona de interesse (ROI) e por sua vez são identificadas automaticamente os vértices da calote e respetivas distâncias das diagonais geradas concluindo, após aceitação das mesmas, com o respetivo cálculo de micro dureza resultante. Para validação dos resultados foram utilizados blocos-padrão de dureza certificada (CRM), cujos resultados foram satisfatórios, tendo-se obtido um elevado nível de exatidão nas medições efetuadas. Por fim, desenvolveu-se uma folha de cálculo em Excel com a determinação da incerteza associada às medições de micro dureza Vickers. Foram então comparados os resultados nas duas metodologias possíveis, pelo método ótico convencional e pela utilização das ferramentas de visão computacional, tendo-se obtido bons resultados com a solução proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara dedeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara dedeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos tem-se assistido à introdução de novos dispositivos de medição da poluição do ar baseados na utilização de sensores de baixo custo. A utilização menos complexa destes sistemas, possibilita a obtenção de dados com elevada resolução temporal e espacial, abrindo novas oportunidades para diferentes metodologias de estudos de monitorização da poluição do ar. Apesar de apresentarem capacidades analíticas distantes dos métodos de referência, a utilização destes sensores tem sido sugerida e incentivada pela União Europeia no âmbito das medições indicativas previstas na Diretiva 2008/50/CE, com uma incerteza expandida máxima de 25%. O trabalho desenvolvido no âmbito da disciplina de Projeto consistiu na escolha, caracterização e utilização em medições reais de um sensor de qualidade do ar, integrado num equipamento protótipo desenvolvido com esse fim, visando obtenção uma estimativa da incerteza de medição associada à utilização deste dispositivo através da aplicação da metodologia de demonstração de equivalência de métodos de medição de qualidade do ar definida pela União Europeia. A pesquisa bibliográfica realizada permitiu constatar que o monóxido de carbono é neste momento o parâmetro de qualidade do ar que permite ser medido de forma mais exata através da utilização de sensores, nomeadamente o sensor eletroquímico da marca Alphasense, modelo COB4, amplamente utilizado em projetos de desenvolvimento neste cotexto de monitorização ambiental. O sensor foi integrado num sistema de medição com o objetivo de poder ser utlizado em condições de autonomia de fornecimento de energia elétrica, aquisição interna dos dados, tendo em consideração ser o mais pequeno possível e de baixo custo. Foi utlizado um sistema baseado na placa Arduino Uno com gravação de dados em cartão de memória SD, baterias e painel solar, permitindo para além do registo das tensões elétricas do sensor, a obtenção dos valores de temperatura, humidade relativa e pressão atmosférica, com um custo global a rondar os 300 euros. Numa primeira fase foram executados um conjunto de testes laboratoriais que permitiram a determinação de várias características de desempenho em dois sensores iguais: tempo de resposta, a equação modelo do sensor, avaliação da repetibilidade, desvio de curto e longo termo, interferência da temperatura e histerese. Os resultados demonstraram um comportamento dos sensores muito linear, com um tempo de resposta inferior a um minuto e com uma equação modelo do sensor dependente da variação da temperatura. A estimativa da incerteza expandida laboratorial ficou, para ambos os sensores, abaixo dos 10%. Após a realização de duas campanhas reais de medição de CO em que os valores foram muito baixos, foi realizada uma campanha de quinze dias num parque de estacionamento subterrâneo que permitiu a obtenção de concentrações suficientemente elevadas e a comparação dos resultados dos sensores com o método de referência em toda a gama de medição (0 a 12 mol.mol-1). Os valores de concentração obtidos pelos dois sensores demonstraram uma excelente correlação com o método de referência (r2≥0,998), obtendo-se resultados para a estimativa da incerteza expandida de campo inferiores aos obtidos para a incerteza laboratorial, cumprindo o objetivo de qualidade de dados definido para as medições indicativas de incerteza expandida máxima de 25%. Os resultados observados durante o trabalho realizado permitiram confirmar o bom desempenho que este tipo de sensor pode ter no âmbito de medições de poluição do ar com um caracter mais indicativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Mestrado Integrado em Engenharia Mecânica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMO - A qualidade e segurança são pilares essenciais dos sistemas de saúde modernos. A sua monitorização e avaliação tem como primeiro passo o conhecimento da realidade no que se refere aos eventos adversos que afetam os utentes. Existem diversas metodologias de medição de eventos adversos. A revisão de processos clínicos, apesar de constituir o padrão de ouro, não permite, ao contrário da análise dos dados administrativos, avaliar de forma abrangente, os episódios de internamento. Esta metodologia a partir de dados recolhidos rotineiramente em inúmeros países, como Portugal, apresenta porém diversas limitações, para as quais têm sido instituídas soluções tais como a sinalização do momento de aquisição do diagnóstico, que pela recente instituição não foi utilizada neste trabalho. Num hospital do Sistema nacional de saúde em Portugal, pela análise dos dados administrativos, determinou-se nos episódios de internamento cirúrgico uma incidência de 2,5% de eventos adversos. Comprovou-se a relação de idade, sexo masculino e admissão urgente com a sua ocorrência. Os doentes que sofreram um evento adverso apresentaram uma probabilidade de óbito bastante superior (odds ratio 12,2) e apresentaram tempos de internamento médio prolongados em cerca de vinte dias. Estes dados não são contudo ajustados para o risco do doente e das intervenções a que são sujeitos. Se forem considerados os tempos de internamento das tabelas de GDH em Portugal, o prolongamento do internamento é de 8,4 dias. A avaliação dos custos adicionais, realizada pelos dias de internamento adicionais, está condicionada à questão metodológica atrás reportada, estimando-se implicações de 1,1% a 8,8% de dias de internamento, com custos de 1.000.000 a 8.600.000 Euros. Em Portugal a monitorização sistemática da ocorrência de eventos, e consequentemente das implicações para a saúde do doente e custos financeiros, não é ainda uma realidade. A implementação do código "presente na admissão" permitirá dar o passo seguinte na utilização dos dados administrativos na compreensão do fenómeno dos eventos adversos.